Сенаторите изискват информация от приложените приложения на AI, следвайки проблемите на безопасността на децата, съдебни дела
Двама сенатори в Съединени американски щати изискват фирмите за изкуствен интелект да хвърлят светлина върху своите практики за сигурност. Това идва месеци откакто няколко семейства-включително майка във Флорида, чийто 14-годишен наследник умря от самоубийство-заведе дело против започващия темперамент.
„ Пишем, с цел да показваме терзанията си по отношение на рисковете за психологично здраве и сигурност, подбудени на младите консуматори на AI чатбот и приложения, основани на персонажи и персони, “, написа в писмо сенаторите Алекс Падила и Питър Уелч, и двамата демократи. Писмото - изпратено до AI Firms Technologies, производител на характерности.ai, Chai Research Corp. и Luka, Inc., производител на chatbot service Replika - изисква информация за ограниченията за сигурност и по какъв начин фирмите образоват своите AI модели.
Докато по-основните AI чатботи като Chatgpt са проектирани да бъдат по-общи, характерности. Но има и ботове, които се отнасят към себе си като експерти по психологично здраве или герои, основани на нишови тематики, в това число такива, които се разказват като „ нападателен, принудителен, някогашни военни, мафиотски водач “.
Използването на чатботите като цифрови спътници нараства на известност, като някои консуматори даже се отнасят към тях като сантиментални сътрудници.
Но опцията за основаване на персонализирани ботове провокира опасения от специалисти и родители по отношение на потребителите, изключително младежите, формирайки евентуално нездравословни атачмънти към AI знаци или достъп до наличие, съответстващо на възрастта.
„ Това безопределено доверие може и към този момент е предиздвикало потребителите да разкрият сензитивна информация за тяхното въодушевление, междуличностни връзки или психологично здраве, които могат да включват самонараняване и самоубийствена идея-комплекс тематики, които AI чатботите на вашите артикули са напълно неквалифицирани да разискват “, написа сенаторите в писмото си, предоставено първо на CNN. „ Разговорите, които се движат в тази рискова прочувствена територия, ускориха рисковете за уязвимите консуматори. “
Мама във Флорида, която заведе дело за темперамент.ai през октомври Меган Гарсия, твърди, че синът й е развил несъответствуващи връзки с чатботи на платформата, която го е предиздвикала да се отдръпна от фамилията си. Много от чатовете му с ботовете бяха полово експлицитни и не дадоха отговор по подобаващ метод на споменаванията му за самонараняване, твърди Гарсия.
През декември още две фамилии заведоха иск против Neaching.ai, обвинявайки го в даването на полово наличие на децата си и поощряване на самонараняване и принуждение. Едно семейство, участващо в правосъдния развой, твърди, че персонаж.ai бот се подразбира на тийнейджърски консуматор, че може да убие родителите си за ограничение на времето на екрана му.
Nearch.ai съобщи, че през последните месеци е ползвал нови ограничения за доверие и сигурност, в това число изскачащи консуматори, насочващи потребителите към националната избавителна линия за попречване на самоубийства, когато загатват самонараняване или самоубийство. Той също по този начин споделя, че е създаването на нова технология, с цел да се предотврати сензитивното наличие на младежите. Миналата седмица компанията разгласи функционалност, която ще изпраща на родителите седмичен имейл с визия за потреблението на уеб страницата на техния младеж, в това число време на екрана и героите, с които детето им приказва най -често.
Други компании за чатбот AI също са се сблъскали с въпроси дали връзките с AI чатботите могат да основат нездравословни привързаности към потребителите или да подкопаят човешките връзки. Изпълнителният шеф на Replika Eugenia Kuyda сподели пред Verge предходната година, че приложението е предопределено да насърчи „ дълготрайния ангажимент, дълготрайната позитивна връзка “ с AI, добавяйки, че това може да значи другарство или даже „ брак “ с ботовете.
В своето писмо Падила и Уелч желаеха информация за настоящите и предходните ограничения за сигурност на фирмите и всевъзможни проучвания за ефикасността на тези ограничения, както и за имената на практиките за водачество на сигурността и благосъстоянието на екипите за сигурност. Те също по този начин помолиха компаниите да опишат данните, употребявани за образование на своите AI модели и по какъв начин това „ въздейства върху вероятността потребителите да се сблъскат с възрастови или други чувствителни тематики. “
„ От решаващо значение е да се разбере по какъв начин тези модели са подготвени да реагират на диалози за психологичното здраве “, написа сенаторите и прибавиха, че „ политиците, родителите и децата им заслужават да знаят какво вършат вашите компании, с цел да защитят потребителите от тези известни опасности. “